Перевод: с английского на все языки

со всех языков на английский

sur l'autre chaîne

См. также в других словарях:

  • Chaîne Mount Tom — Carte topographique de la chaîne Mount Tom. Géographie Altitude 366 m, Mont Tom Massif …   Wikipédia en Français

  • autre — [ otr ] adj., pron. et n. m. • altre 1080; lat. alter, accus. alterum I ♦ Adj. A ♦ Épithète antéposée. 1 ♦ Qui n est pas le même, qui est distinct (cf. Allo , hétér(o) ). L autre porte. Par l autre bout. « Nous approuvons, pour une idée, un… …   Encyclopédie Universelle

  • Chaîne Française d'Information Internationale — France 24 Création 30 novembre 2005 (lancement le 6 décembre 2006 à 20 h 30) Slogan « « (la chaîne de) l’actualité internationale 24h/24 » « au delà de l info » » Langue …   Wikipédia en Français

  • Chaîne française d'information internationale — France 24 Création 30 novembre 2005 (lancement le 6 décembre 2006 à 20 h 30) Slogan « « (la chaîne de) l’actualité internationale 24h/24 » « au delà de l info » » Langue …   Wikipédia en Français

  • chaîne — (chê n ) s. f. 1°   Espèce de lien de métal, formé d une suite d anneaux. Chaîne de fer. Chaîne pesante. Chargé de chaînes. Retenir quelqu un dans les chaînes. Briser ou rompre ses chaînes. Chien à la chaîne. Mettre à la chaîne. •   Le peuple… …   Dictionnaire de la Langue Française d'Émile Littré

  • Chaîne carbonée — La chaîne carbonée est, dans une molécule organique, la chaîne formée par un ensemble d atomes de carbone contigus, reliés par des liaisons covalentes. Il s agit donc d un enchaînement ininterrompu d atomes de carbone : enchaînement linéaire …   Wikipédia en Français

  • Chaine De Markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… …   Wikipédia en Français

  • Chaine de Markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… …   Wikipédia en Français

  • Chaine de markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… …   Wikipédia en Français

  • Chaîne De Markov — Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un processus stochastique… …   Wikipédia en Français

  • Chaîne de Markov à espace d'états discret — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… …   Wikipédia en Français

Поделиться ссылкой на выделенное

Прямая ссылка:
Нажмите правой клавишей мыши и выберите «Копировать ссылку»